El Nino Southern振荡(ENSO)是热带中央和东太平洋的海面温度(SST)的半周期波动,通过远程依赖或电信连接,影响世界各地的区域水文中的际变化。最近的研究表明了改进ENSO预测以及用于了解电信连接的复杂网络(CN)的深度学习(DL)方法的价值。然而,预测对Enso驱动的河流流动的差距包括DL的黑匣子性质,使用简单的ENSO指数来描述复杂的现象并将基于DL的ENSO预测翻译成河流预测。在这里,我们显示可解释的DL(XDL)方法,基于显着性图,可以提取全球SST中包含的可解释的预测信息,并发现对河流的新型SST信息区域和依赖结构,这些信息与气候网络结构串联,使得改进的预测性理解。我们的结果揭示了全球SST超越ENSO指数的更多信息内容,开发了对SSTS影响河流的新了解,并产生了与不确定性的改进的河流预测。观察,重新分析数据和地球系统模型模拟用于展示基于XDL-CN基于互际和分支尺度的气候预测的方法的价值。
translated by 谷歌翻译
长期护理(LTC)居民的一半营养不良的住院治疗,死亡率,发病率较低。当前的跟踪方法是主观和耗时的。本文介绍了专为LTC设计的自动食品成像和营养进气跟踪(AFINI-T)技术。我们提出了一种用于食品分类的新型卷积Automencoder,在我们的模拟LTC食物摄入数据集上培训了用于食品分类,并在我们的模拟LTC食物摄入数据集上进行测试(每种餐路;每次最多15级;前1个分类准确度:88.9%;意味着进气错误: - 0.4 ml $ \ PM $ 36.7毫升)。营养摄入量的估计与质量的营养估计与质量($ ^ 2 $ 0.92至0.99)之间的营养估计与方法之间的良好符合($ \ sigma $ = -2.7至-0.01;零在协议的每一个限制中, 。 AFINI-T方法是深度学习的动力计算营养传感系统,可以提供更准确地和客观地跟踪LTC驻留食物摄入量的新颖手段,以支持和防止营养不良跟踪策略。
translated by 谷歌翻译
Adversarial attacks hamper the decision-making ability of neural networks by perturbing the input signal. The addition of calculated small distortion to images, for instance, can deceive a well-trained image classification network. In this work, we propose a novel attack technique called Sparse Adversarial and Interpretable Attack Framework (SAIF). Specifically, we design imperceptible attacks that contain low-magnitude perturbations at a small number of pixels and leverage these sparse attacks to reveal the vulnerability of classifiers. We use the Frank-Wolfe (conditional gradient) algorithm to simultaneously optimize the attack perturbations for bounded magnitude and sparsity with $O(1/\sqrt{T})$ convergence. Empirical results show that SAIF computes highly imperceptible and interpretable adversarial examples, and outperforms state-of-the-art sparse attack methods on the ImageNet dataset.
translated by 谷歌翻译
Post-hoc explanation methods have become increasingly depended upon for understanding black-box classifiers in high-stakes applications, precipitating a need for reliable explanations. While numerous explanation methods have been proposed, recent works have shown that many existing methods can be inconsistent or unstable. In addition, high-performing classifiers are often highly nonlinear and can exhibit complex behavior around the decision boundary, leading to brittle or misleading local explanations. Therefore, there is an impending need to quantify the uncertainty of such explanation methods in order to understand when explanations are trustworthy. We introduce a novel uncertainty quantification method parameterized by a Gaussian Process model, which combines the uncertainty approximation of existing methods with a novel geodesic-based similarity which captures the complexity of the target black-box decision boundary. The proposed framework is highly flexible; it can be used with any black-box classifier and feature attribution method to amortize uncertainty estimates for explanations. We show theoretically that our proposed geodesic-based kernel similarity increases with the complexity of the decision boundary. Empirical results on multiple tabular and image datasets show that our decision boundary-aware uncertainty estimate improves understanding of explanations as compared to existing methods.
translated by 谷歌翻译
持续学习的现有工作(CL)的重点是减轻灾难性遗忘,即学习新任务时过去任务的模型绩效恶化。但是,CL系统的训练效率不足,这限制了CL系统在资源有限的方案下的现实应用。在这项工作中,我们提出了一个名为“稀疏持续学习”(SPARCL)的新颖框架,这是第一个利用稀疏性以使边缘设备上具有成本效益的持续学习的研究。 SPARCL通过三个方面的协同作用来实现训练加速度和准确性保护:体重稀疏性,数据效率和梯度稀疏性。具体而言,我们建议在整个CL过程中学习一个稀疏网络,动态数据删除(DDR),以删除信息较少的培训数据和动态梯度掩盖(DGM),以稀疏梯度更新。他们每个人不仅提高了效率,而且进一步减轻了灾难性的遗忘。 SPARCL始终提高现有最新CL方法(SOTA)CL方法的训练效率最多减少了训练失败,而且令人惊讶的是,SOTA的准确性最多最多提高了1.7%。 SPARCL还优于通过将SOTA稀疏训练方法适应CL设置的效率和准确性获得的竞争基线。我们还评估了SPARCL在真实手机上的有效性,进一步表明了我们方法的实际潜力。
translated by 谷歌翻译
机器学习方法在做出预测方面越来越好,但与此同时,它们也变得越来越复杂和透明。结果,通常依靠解释器为这些黑框预测模型提供可解释性。作为关键的诊断工具,重要的是这些解释者本身是可靠的。在本文中,我们关注可靠性的一个特定方面,即解释器应为类似的数据输入提供类似的解释。我们通过引入和定义解释者的敏锐度,类似于分类器的敏锐性来形式化这个概念。我们的形式主义灵感来自概率lipchitzness的概念,该概念捕捉了功能局部平滑度的可能性。对于各种解释者(例如,摇摆,上升,CXPLAIN),我们为这些解释者的敏锐性提供了下限保证,鉴于预测函数的lipschitzness。这些理论上的结果表明,局部平滑的预测函数为局部强大的解释提供了自身。我们对模拟和真实数据集进行经验评估这些结果。
translated by 谷歌翻译
持续学习旨在使单个模型能够学习一系列任务,而不会造成灾难性的遗忘。表现最好的方法通常需要排练缓冲区来存储过去的原始示例以进行经验重播,但是,由于隐私和内存约束,这会限制其实际价值。在这项工作中,我们提出了一个简单而有效的框架,即DualPrompt,该框架学习了一组称为提示的参数,以正确指示预先训练的模型,以依次学习到达的任务,而不会缓冲过去的示例。 DualPrompt提出了一种新颖的方法,可以将互补提示附加到预训练的主链上,然后将目标提出为学习任务不变和特定于任务的“指令”。通过广泛的实验验证,双启示始终在具有挑战性的课堂开发环境下始终设置最先进的表现。尤其是,双启示的表现优于最近的高级持续学习方法,其缓冲尺寸相对较大。我们还引入了一个更具挑战性的基准Split Imagenet-R,以帮助概括无连续的持续学习研究。源代码可在https://github.com/google-research/l2p上找到。
translated by 谷歌翻译
在车辆场景中的毫米波链路的光束选择是一个具有挑战性的问题,因为所有候选光束对之间的详尽搜索都不能在短接触时间内被确认完成。我们通过利用像LIDAR,相机图像和GPS等传感器收集的多模级数据来解决这一问题。我们提出了可以在本地以及移动边缘计算中心(MEC)本地执行的个人方式和分布式融合的深度学习(F-DL)架构,并研究相关权衡。我们还制定和解决优化问题,以考虑实际的光束搜索,MEC处理和传感器到MEC数据传送延迟开销,用于确定上述F-DL架构的输出尺寸。在公开的合成和本土现实世界数据集上进行的广泛评估结果分别在古典RF光束上释放出95%和96%的束选择速度提高。在预测前10个最佳光束对中,F-DL还优于最先进的技术20-22%。
translated by 谷歌翻译
持续学习背后的主流范例一直在使模型参数调整到非静止数据分布,灾难性遗忘是中央挑战。典型方法在测试时间依赖排练缓冲区或已知的任务标识,以检索学到的知识和地址遗忘,而这项工作呈现了一个新的范例,用于持续学习,旨在训练更加简洁的内存系统而不在测试时间访问任务标识。我们的方法学会动态提示(L2P)预先训练的模型,以在不同的任务转换下顺序地学习任务。在我们提出的框架中,提示是小型可学习参数,这些参数在内存空间中保持。目标是优化提示,以指示模型预测并明确地管理任务不变和任务特定知识,同时保持模型可塑性。我们在流行的图像分类基准下进行全面的实验,具有不同挑战的持续学习环境,其中L2P始终如一地优于现有最先进的方法。令人惊讶的是,即使没有排练缓冲区,L2P即使没有排练缓冲,L2P也能实现竞争力的结果,并直接适用于具有挑战性的任务不可行的持续学习。源代码在https://github.com/google-Research/l2p中获得。
translated by 谷歌翻译
有限的作品显示无监督的分布(OOD)方法对复杂的医疗数据的功效。在这里,我们展示了我们无监督的OOD检测算法,SIMCLR-LOF的初步调查结果,以及在医学图像上应用的最近现实方法(SSD)的最新状态。SIMCLR-LOF使用SIMCLR学习语义有意义的功能,如果测试样本是ood的,则使用LOF进行评分。我们在多源国际皮肤成像协作(ISIC)2019数据集上进行了评估,并显示与SSD竞争的结果以及应用于同一数据的最近监督方法。
translated by 谷歌翻译